Световни новини без цензура!
Колко фаталистични трябва да бъдем по отношение на изкуствения интелект?
Снимка: ft.com
Financial Times | 2024-02-22 | 15:24:34

Колко фаталистични трябва да бъдем по отношение на изкуствения интелект?

Дълга поредност от влиятелни лектори, вариращи от сър Уинстън Чърчил до Дейм Айрис Мърдок, изнесоха годишната лекция по римски език в Оксфордския университет, като се стартира с Уилям Гладстон през 1892 година

Но рядко, в случай че въобще, преподавател може да е направил толкоз вълнуващ коментар, както направи Джефри Хинтън тази седмица. Речта на водещия откривател на изкуствения разсъдък, провокативно озаглавена, заключава: съвсем несъмнено, да. Но Хинтън отхвърли концепцията, постоянно срещана в някои софтуерни кръгове на Западния бряг, че хуманизмът е някак си „ расистки “ в продължаването на отстояването на примата на личния ни тип над електронните форми на разсъдък. „ Ние, хората, би трябвало да поставим всички старания да останем в близост “, пошегува се той.

Британско-канадският компютърен академик стана прочут като един от пионерите на техниките за „ задълбочено образование “, които направиха гражданска война в ИИ, позволявайки основаването на генериращи AI чатботове, като ChatGPT. През по-голямата част от кариерата си в университетските среди и в Гугъл Хинтън вярваше, че ИИ не съставлява опасност за човечеството. Но 76-годишният откривател споделя, че предходната година е претърпял „ богоявление “ и е напуснал Гугъл, с цел да приказва намерено за рисковете.

Хинтън осъзна, че все по-мощните модели на ИИ могат да работят като „ мозъци на кошери “, споделяйки какво са научили между тях, което им дава голямо преимущество пред хората. „ Това ме накара да осъзная, че те може да са по-добра форма на просветеност “, ми сподели той в изявление преди лекцията си.

Все още наподобява фантастично, че редове софтуерен код могат да застрашат човечеството. Но Хинтън вижда два съществени риска. Първият е, че неприятните хора ще слагат на машините неприятни цели и ще ги употребяват за неприятни цели, като всеобща дезинформация, биотероризъм, кибервойна и роботи убийци. По-специално моделите на изкуствен интелект с отворен код, като да вземем за пример Llama на Meta, дават големи благоприятни условия в ръцете на неприятни хора. „ Мисля, че е цялостна полуда тези огромни модели с отворен код “, споделя той.

Но той предвижда, че моделите могат също по този начин да се „ развият “ по рискови способи, развивайки предумишленост за надзор. „ Ако поучавах държавни управления, бих споделил, че има 10 % късмет тези неща да унищожат човечеството през идващите 20 години. Мисля, че това би било рационално число “, споделя той.

Аргументите на Хинтън са атакувани на два фронта. Първо, някои откриватели настояват, че генеративните AI модели не са нищо повече от скъпи статистически трикове и че екзистенциалните опасности от технологията са „ фантастика на научната фантастика “.

Изтъкнатият академик Ноам Чомски твърди, че хората са благословени с генетично конфигурирана „ операционна система “, която ни оказва помощ да разбираме езика, а това липсва в машините. Но Хинтън твърди, че това са нелепости, като се има поради, че най-новият модел GPT-4 на OpenAI може да учи език и да демонстрира емпатия, разсъждения и жлъч. „ Правя доста мощно изказване, че тези модели в действителност схващат “, сподели той в лекцията си.

Другата линия на офанзива идва от Yann LeCun, основен AI академик в Meta. LeCun, покровител на моделите с отворен код, твърди, че сегашните ни AI системи са по-глупави от котките и е „ неуместно “ да имаме вяра, че те съставляват опасност за хората, било то по дизайн или по дифолт. „ Мисля, че Ян е малко доверчив. Бъдещето на човечеството се основава на това “, дава отговор Хинтън.

Спокойните и премерени тонове на изявлението на Хинтън са в ослепителен контрастност с мрачния предразсъдък на неговото обръщение. Може ли да се направи нещо, с цел да се подобрят възможностите на човечеството? „ Иска ми се да знаех “, дава отговор той. „ Аз не пропагандирам съответно решение, аз просто пропагандирам казуса. “

Той беше поощрен, че Обединеното кралство беше хазаин на среща на върха за сигурността на изкуствения разсъдък в Блечли Парк предходната година, стимулирайки интернационален политически спор. Но от този момент, споделя той, английското държавно управление „ главно е решило, че облагите са преди сигурността “. Както при изменението на климата, той допуска, че сериозна смяна в политиката ще се случи единствено откакто бъде реализиран теоретичен консенсус. И той приема, че през днешния ден не съществува. Позовавайки се на физика Макс Планк, Хинтън тъмно прибавя: „ Науката напредва едно заравяне едновременно. “

Той споделя, че е обнадежден, че по-младото потомство компютърни учени поема съществено екзистенциалния риск и допуска, че 30 % от Изследователите на AI би трябвало да се посветят на проблемите на сигурността, спрямо към 1 % през днешния ден.

Трябва да бъдем инстинктивно внимателни към откривателите, които заключават, че са нужни повече проучвания. Но в този случай, поради залога и несигурността, по-добре да побързаме. Това, което е извънредно в дебата за риска от ИИ, е необятният набор от гледни точки. Трябва да намерим нов консенсус.


Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!